Dostrajanie[1] (ang. fine-tuning) – podejście w uczeniu głębokim do uczenia transferowego, w którym parametry wstępnie wyszkolonego modelu sieci neuronowej są trenowane na nowych danych[2]. Dostrajanie można przeprowadzić w całej sieci neuronowej lub tylko konkretnych warstwach. W drugim przypadku warstwy, które nie są dostrajane nie ulegają zmianie podczas propagacji wstecznej[3].
W przypadku niektórych architektur, takich jak konwolucyjne sieci neuronowe, zazwyczaj zamraża się pierwsze warstwy (najbliższe warstwie wejściowej), ponieważ przechwytują one cechy niższego poziomu, podczas gdy kolejne warstwy często rozróżniają cechy wyższego poziomu, które mogą być bardziej powiązane z zadaniem trenowanego modelu[3][4].
Modele wstępnie wytrenowane na dużych, ogólnych korpusach są zazwyczaj dostrajane przez ponowne wykorzystanie ich parametrów jako punkt startowy i dodanie warstwy specyficznej dla zadania, trenowanej od podstaw[5]. Dostrajanie całego modelu też jest stosowane i często daje lepsze rezultaty ale jest bardziej kosztowne obliczeniowo[6].
Dostrajanie odbywa się zazwyczaj za pomocą uczenia nadzorowanego. To podejście można też połączyć z techniką RLHF, aby wytworzyć modele językowe, takie jak ChatGPT (dostrojona wersja modeli GPT)[7][8].
- ↑ WłodzimierzW. Szpringer WłodzimierzW., Modele podstawowe AI – nowe dylematy platformizacji w gospodarce cyfrowej, „Kwartalnik Nauk o Przedsiębiorstwie”, 75 (1), 2025, s. 5–22, DOI: 10.33119/KNOP.2025.75.1.1, ISSN 2719-3276 [dostęp 2025-04-15] (pol.).
- ↑ 14.2. Fine-Tuning — Dive into Deep Learning 1.0.3 documentation [online], d2l.ai [dostęp 2025-04-15] .
- ↑ a b CS231n Deep Learning for Computer Vision [online], cs231n.github.io [dostęp 2025-04-15] .
- ↑ Matthew D.M.D. Zeiler Matthew D.M.D., RobR. Fergus RobR., Visualizing and Understanding Convolutional Networks [online], arXiv.org, 12 listopada 2013 [dostęp 2025-04-15] (ang.).
url-auto
- ↑ JesseJ. Dodge JesseJ. i inni, Fine-Tuning Pretrained Language Models: Weight Initializations, Data Orders, and Early Stopping, arXiv, 15 lutego 2020, DOI: 10.48550/arXiv.2002.06305 [dostęp 2025-04-15] .
url-auto Brak numerów stron w książce
- ↑ SaketS. Dingliwal SaketS. i inni, Prompt Tuning GPT-2 language model for parameter-efficient domain adaptation of ASR systems, arXiv, 21 lipca 2022, DOI: 10.48550/arXiv.2112.08718 [dostęp 2025-04-15] .
url-auto Brak numerów stron w książce
- ↑ Introducing ChatGPT [online], openai.com, 13 marca 2024 [dostęp 2025-04-15] (ang.).
- ↑ AmeliaA. Glaese AmeliaA. i inni, Improving alignment of dialogue agents via targeted human judgements, arXiv, 28 września 2022, DOI: 10.48550/arXiv.2209.14375 [dostęp 2025-04-15] .
url-auto Brak numerów stron w książce